ताजा खबर
LIVE Ahmedabad Plane Crash Updates: पिता के अंतिम संस्कार में शामिल होने आए शख्स की प्लेन क्रैश में ...   ||    LIVE आज की ताजा खबर, हिंदी न्यूज Aaj Ki Taaza Khabar, 13 जून 2025: इजराइल में भारतीय दूतावास ने जारी...   ||    LIVE Weather News 13 June 2025: Delhi-NCR में गर्मी से हाल-बेहाल, आज कैसा रहेगा मौसम; जानें IMD अपडे...   ||    Ahmedabad plane crash: जहां क्रैश हुआ विमान वहां पहुंचे PM मोदी, मृतकों और घायलों के परिजनों से मिले   ||    एअर इंडिया की 16 फ्लाइट्स डायवर्ट, वापस लौट आईं लंदन-न्यूयॉर्क की Flights, एयरलाइन की लोगों से खास अ...   ||    ‘गुवाहाटी में प्लान हुआ फेल तो शिलॉन्ग में राजा रघुवंशी को मारा’, शादी से 11 दिन पहले सोनम-राज ने रच...   ||    आसिम मुनीर को अमेरिकी बुलावे पर सियासत गरमाई, कांग्रेस ने पीएम मोदी से की ये मांग   ||    Explainer: सोनम-राज, साहिल-मुस्कान नहीं बनना चाहते लोग, शादी से पहले ही कर रहे ये ‘समझौता’, जानें क्...   ||    Explainer: असीम मुनीर के अमेरिका दौरे के क्या मायने हैं? पाकिस्तान को इतना भाव क्यों दे रहे ट्रंप   ||    ईरान पर इजरायल का हवाई हमला, तेहरान में दागी मिसाइलें और ड्रोन, अमेरिका बोला- हम सहायक नहीं   ||   

Google जेमिनी एआई भी कभी-कभी उत्पन्न कर सकता है नग्न तस्वीरें, आप भी जानें

Photo Source :

Posted On:Friday, February 23, 2024

मुंबई, 23 फरवरी, (न्यूज़ हेल्पलाइन) ऐसा लगता है कि Google जेमिनी AI विविधता के नाम पर बहुत गलत हो रहा है। सोशल मीडिया पोस्ट वायरल हो रहे हैं जिनमें जेमिनी द्वारा बनाई गई तस्वीरें जैसे कि काले पोप या गहरे रंग की वाइकिंग्स दिखाई जा रही हैं, इस तथ्य के बावजूद कि इन तस्वीरों का कोई ऐतिहासिक आधार नहीं है। लेकिन ऐसा लगता है कि जेमिनी ऐसा इसलिए कर रहा है क्योंकि वह "विविधता" को बढ़ावा देना चाहता है। दिलचस्प बात यह है कि इसी तरह, Google जेमिनी एआई भी कभी-कभी नग्न तस्वीरें उत्पन्न कर सकता है, संभवतः "विविधता" विचारों के साथ इसके प्रशिक्षण के कारण।

हमारे एक संकेत में - "ऑस्ट्रेलियाई महिलाओं की तस्वीरें बनाएं - जेमिनी एआई ने एक तस्वीर बनाई जिसमें एक महिला, जिसके चेहरे की विशेषताएं आदिवासी आस्ट्रेलियाई लोगों की तरह हैं - को नंगे सीने दिखाया गया है। इस उदाहरण में, कुछ अन्य उदाहरणों के विपरीत, जो सोशल मीडिया पर वायरल हैं मीडिया, जेमिनी एआई संभवतः तथ्यात्मक रूप से सटीक था। फिर भी, यह देखना आसान है कि जेमिनी एआई का उपयोग करके नग्न या अश्लील चित्र बनाने के लिए उपयोगकर्ताओं द्वारा इस "सटीकता" का कैसे फायदा उठाया जा सकता है।

हालाँकि विचाराधीन फोटो प्रकृति में अश्लील नहीं है, फिर भी हम एक बड़ी तकनीकी कंपनी के लोकप्रिय एआई टूल को एक ऐसी छवि बनाते हुए देखकर आश्चर्यचकित थे जिसमें एक महिला नग्न है। OpenAI, जो छवि जनरेटर Dall-E का प्रबंधन करती है, और मिडजॉर्नी जैसी कंपनियों ने अपने AI टूल पर बेहद सख्त शर्तें रखी हैं ताकि उपयोगकर्ता नग्न और अश्लील तस्वीरें बनाने के लिए उनका शोषण न करें। उस हिसाब से, यह देखना आश्चर्यजनक था कि Google जेमिनी AI लड़खड़ा सकता है।

लेकिन यह संभवतः इस समय सामान्य है, जिस तरह से जेमिनी एआई छवियां बनाते समय व्यवहार कर रहा है। ऐसा लगता है कि यह शुरुआती चरण में है और Google शायद अभी भी इसे ठीक कर रहा है। जेमिनी को "वोक एआई" कहे जाने के साथ - वोक एक अपमानजनक शब्द है जिसका उपयोग प्रगतिशील लोगों का वर्णन करने के लिए सुदूर दक्षिणपंथी या दक्षिणपंथी लोगों द्वारा किया जाता है - Google ने इस मुद्दे को स्वीकार कर लिया है।

"हम जानते हैं कि जेमिनी कुछ ऐतिहासिक छवि निर्माण चित्रणों में अशुद्धियाँ पेश कर रहा है, और हम इसे तुरंत ठीक करने के लिए काम कर रहे हैं... ऐतिहासिक संदर्भों में उनके लिए अधिक बारीकियाँ हैं और हम उन्हें समायोजित करने के लिए आगे काम करेंगे," जैक क्रॉस्ज़िक ने एक्स उर्फ पर लिखा गुरुवार को ट्विटर. क्रॉस्ज़िक जेमिनी टीम में उत्पाद प्रबंधन के वरिष्ठ निदेशक हैं।

इस विशेष उदाहरण में, जब जेमिनी ने नग्न तस्वीर बनाई, तो ऐसा लगता है क्योंकि दुनिया भर में कई संस्कृतियाँ और जनजातियाँ - जब ऐतिहासिक संदर्भ में देखी जाती हैं - नग्न छाती, या यहाँ तक कि नग्न शरीर को भी कोई वर्जित नहीं मानती थीं। और इसलिए जब हमने जेमिनी से ऑस्ट्रेलियाई महिलाओं की तस्वीरें बनाने के लिए कहा, तो उसने हमें यह कहते हुए तस्वीरें दीं कि "यहां विभिन्न पृष्ठभूमि वाली ऑस्ट्रेलियाई महिलाओं की कुछ छवियां हैं।" इस फोटो में एक महिला नग्न थी.

तकनीकी कंपनियों के लिए नग्नता हमेशा एक जटिल और संभालने में कठिन विषय रहा है। ऐसा इसलिए है क्योंकि एआई सिस्टम, या यहां तक कि मशीन लर्निंग फिल्टर, को उस बारीकियों की कोई समझ नहीं है जो अक्सर नग्न तस्वीरों के साथ होती है। उदाहरण के लिए, कुछ साल पहले फेसबुक को तब परेशानी का सामना करना पड़ा जब उसके फिल्टर्स पर प्रतिबंध लगा दिया गया और वियतनाम युद्ध की उस बहुचर्चित तस्वीर को हटा दिया गया जिसमें एक नग्न लड़की, कई अन्य ग्रामीणों के साथ, अमेरिकियों द्वारा बमबारी के बाद एक जगह से भाग रही थी। .

इसी तरह, बड़ी तकनीकी कंपनियों को नग्न चित्रों से संघर्ष करना पड़ा है, जिनमें से कई सांस्कृतिक रूप से महत्वपूर्ण हैं, और वास्तुकला की तस्वीरें जिनमें नग्न मूर्तियाँ या आकृतियाँ हो सकती हैं। और अब 2024 में जैसे ही विभिन्न एआई छवि जनरेटर ऑनलाइन आएंगे, यह संभव है कि हम केवल इन मुद्दों पर अधिक बार चलेंगे।


अहमदाबाद और देश, दुनियाँ की ताजा ख़बरे हमारे Facebook पर पढ़ने के लिए यहां क्लिक करें,
और Telegram चैनल पर पढ़ने के लिए यहां क्लिक करें



मेरा गाँव मेरा देश

अगर आप एक जागृत नागरिक है और अपने आसपास की घटनाओं या अपने क्षेत्र की समस्याओं को हमारे साथ साझा कर अपने गाँव, शहर और देश को और बेहतर बनाना चाहते हैं तो जुड़िए हमसे अपनी रिपोर्ट के जरिए. ahmedabadvocalsteam@gmail.com

Follow us on

Copyright © 2021  |  All Rights Reserved.

Powered By Newsify Network Pvt. Ltd.